混音是在语音事件中混合两种或多种语言的一种现象,并且在多语言社会中很普遍。鉴于代码混合的低资源性质,代码混合文本的机器生成是数据增强的普遍方法。但是,评估该机器生成的代码混合文本的质量是一个开放问题。在与INLG2022相处的共享任务的Hinglisheval提交时,我们尝试通过预测代码混合质量的评分来构建影响合成生成的代码混合文本质量的模型因素。
translated by 谷歌翻译
在大量人员中,在线社交媒体(OSMS)消费的广泛上升构成了遏制这些平台上仇恨内容的传播的关键问题。随着多种语言的效果越来越多,检测和表征仇恨的任务变得更加复杂。代码混合文本的微妙变化以及切换脚本仅增加了复杂性。本文介绍了哈索克2021多语种推特仇恨语音检测挑战的解决方案,由Team Precog IIIT Hyderabad。我们采用基于多语言变压器的方法,并为所有6个子任务描述了我们的架构作为挑战的一部分。在参加所有子特设券的6支球队中,我们的提交总体排名第3。
translated by 谷歌翻译
Self-supervised pre-trained transformers have improved the state of the art on a variety of speech tasks. Due to the quadratic time and space complexity of self-attention, they usually operate at the level of relatively short (e.g., utterance) segments. In this paper, we study the use of context, i.e., surrounding segments, during fine-tuning and propose a new approach called context-aware fine-tuning. We attach a context module on top of the last layer of a pre-trained model to encode the whole segment into a context embedding vector which is then used as an additional feature for the final prediction. During the fine-tuning stage, we introduce an auxiliary loss that encourages this context embedding vector to be similar to context vectors of surrounding segments. This allows the model to make predictions without access to these surrounding segments at inference time and requires only a tiny overhead compared to standard fine-tuned models. We evaluate the proposed approach using the SLUE and Librilight benchmarks for several downstream tasks: Automatic speech recognition (ASR), named entity recognition (NER), and sentiment analysis (SA). The results show that context-aware fine-tuning not only outperforms a standard fine-tuning baseline but also rivals a strong context injection baseline that uses neighboring speech segments during inference.
translated by 谷歌翻译
Decentralized bilevel optimization has received increasing attention recently due to its foundational role in many emerging multi-agent learning paradigms (e.g., multi-agent meta-learning and multi-agent reinforcement learning) over peer-to-peer edge networks. However, to work with the limited computation and communication capabilities of edge networks, a major challenge in developing decentralized bilevel optimization techniques is to lower sample and communication complexities. This motivates us to develop a new decentralized bilevel optimization called DIAMOND (decentralized single-timescale stochastic approximation with momentum and gradient-tracking). The contributions of this paper are as follows: i) our DIAMOND algorithm adopts a single-loop structure rather than following the natural double-loop structure of bilevel optimization, which offers low computation and implementation complexity; ii) compared to existing approaches, the DIAMOND algorithm does not require any full gradient evaluations, which further reduces both sample and computational complexities; iii) through a careful integration of momentum information and gradient tracking techniques, we show that the DIAMOND algorithm enjoys $\mathcal{O}(\epsilon^{-3/2})$ in sample and communication complexities for achieving an $\epsilon$-stationary solution, both of which are independent of the dataset sizes and significantly outperform existing works. Extensive experiments also verify our theoretical findings.
translated by 谷歌翻译
我们假设现有的句子级机器翻译(MT)指标在人类参考包含歧义时会效率降低。为了验证这一假设,我们提出了一种非常简单的方法,用于扩展预审计的指标以在文档级别合并上下文。我们将我们的方法应用于三个流行的指标,即Bertscore,Prism和Comet,以及无参考的公制Comet-QE。我们使用提供的MQM注释评估WMT 2021指标共享任务的扩展指标。我们的结果表明,扩展指标的表现在约85%的测试条件下优于其句子级别的级别,而在排除低质量人类参考的结果时。此外,我们表明我们的文档级扩展大大提高了其对话语现象任务的准确性,从而优于专用基线高达6.1%。我们的实验结果支持我们的初始假设,并表明对指标的简单扩展使他们能够利用上下文来解决参考中的歧义。
translated by 谷歌翻译
姿势图优化是同时定位和映射问题的一种特殊情况,其中唯一要估计的变量是姿势变量,而唯一的测量值是施加间约束。绝大多数PGO技术都是基于顶点的(变量是机器人姿势),但是最近的工作以相对方式参数化了姿势图优化问题(变量是姿势之间的变换),利用最小循环基础来最大程度地提高范围的稀疏性。问题。我们以增量方式探索周期基础的构建,同时最大程度地提高稀疏性。我们验证一种算法,该算法逐渐构建稀疏循环基础,并将其性能与最小循环基础进行比较。此外,我们提出了一种算法,以近似两个图表的最小周期基础,这些图在多代理方案中常见。最后,姿势图优化的相对参数化仅限于使用SE(2)或SE(3)上的刚体变换作为姿势之间的约束。我们引入了一种方法,以允许在相对姿势图优化问题中使用低度测量值。我们对标准基准,模拟数据集和自定义硬件的算法进行了广泛的验证。
translated by 谷歌翻译
我们介绍了一种解释各种线性和分层多标准决策(MCDM)技术(例如WSM和AHP)的结果。这两个关键思想是(a)维持这些技术操纵的值的细粒度表示,以及(b)通过合并,过滤和汇总操作从这些表示形式中得出解释。我们模型中的一个解释对MCDM问题中的两种替代方案进行了高级比较,大概是一个最佳和非最佳选择,这阐明了为什么一种选择比另一个选择更优于另一个替代方案。我们通过为MCDM文献中的两个众所周知的示例生成解释来展示我们的技术的有用性。最后,我们通过执行计算实验来显示它们的功效。
translated by 谷歌翻译
柔性章鱼臂具有卓越的能力,可以协调大量自由度并执行复杂的操纵任务。结果,这些系统继续吸引生物学家和机器人的注意力。在本文中,我们开发了一个三维模型的软章鱼臂,配备了生物力学上逼真的肌肉致动。考虑了所有主要肌肉群施加的内力和夫妇。描述了一种能量塑形控制方法来协调肌肉活动,以便在3D空间中掌握和触及。本文的主要贡献是:(i)主要肌肉群建模以引起三维运动; (ii)基于存储的能量功能的肌肉激活的数学公式; (iii)通过在特殊欧几里得组SE中解决优化问题获得的设计特定于任务的平衡配置的计算有效过程(3)。然后,根据优化问题解决方案引起的共同状态变量,对肌肉控制进行迭代计算。该方法在物理准确的软件环境弹性中得到了数值的证明。报告了模拟观察到的章鱼行为的数值实验的结果。
translated by 谷歌翻译
来自给定时间序列数据的相关矩阵的预测有多种针对一系列问题的应用程序,例如从峰值数据推断神经元连接,从表达数据中推论基因之间的因果关系,并发现气候变化的长空间范围影响。预测相关矩阵的传统方法利用了基础网络所有节点的时间序列数据。在这里,我们使用监督的机器学习技术来预测一些随机选择节点的有限时间序列信息的整个系统的相关矩阵。来自模型的预测的准确性证实,整个系统的一个子集的有限时间序列足以做出良好的相关矩阵预测。此外,使用无监督的学习算法,我们提供了对模型预测成功的见解。最后,我们将此处开发的机器学习模型应用于现实世界数据集。
translated by 谷歌翻译
从HTML文档中提取结构化信息是一个长期研究的问题,其中包括知识库构造,面积搜索和个性化建议。先前的工作依靠每个目标网站上的一些人体标记的网页或一些从某些种子网站的人类标记的网页来培训可转移的提取模型,该模型在看不见的目标网站上概括。嘈杂的内容,较低的站点级别的一致性以及缺乏通信协议使标签网页成为耗时且昂贵的磨难。我们开发的最少是半结构化Web文档的标签有效的自我训练方法,以克服这些限制。至少利用一些人标记的页面来伪造来自目标垂直行业的大量未标记的网页。它使用自我训练对人类标记和伪标记的样品进行了可转移的Web取消模型训练。为了减轻由于嘈杂的训练样本而导致的错误传播,至少根据其估计的标签准确性重新重量重量,并将其纳入培训。据我们所知,这是第一项提出端到端培训的工作,用于仅利用少数人标记的页面进行可转移的Web提取模型。大规模公共数据集的实验表明,每个种子网站上使用少于十个人体标记的页面进行培训,最不受欢迎的模型在未见网站上的平均f1点以上的最新型号超过26个平均F1点,减少人类标记的页面的数量,以达到超过10倍的性能。
translated by 谷歌翻译